使用隔室模型的多种方法已被用于研究Covid-19的大流行,并且使用这些模型的机器学习方法的使用取得了特别明显的成功。我们在这里提出了一种使用“物理知情的神经网络”(PINN)的变体来分析Covid-19美国开发的可访问数据的方法,该方法能够使用模型的知识来帮助学习。我们说明了使用标准PINN方法的挑战,然后如何对网络进行适当和新颖的修改,即使在我们的信息不完整的情况下,网络也可以表现出色。还评估了模型参数的可识别性方面,以及使用小波变换来降低可用数据的方法。最后,我们讨论了神经网络方法与不同参数值模型合作的能力,以及在估计人群中如何有效测试案例的具体应用,从而通过各自提供了美国州的排名测试。
translated by 谷歌翻译
昼夜节律是哺乳动物(例如睡眠,代谢,稳态,情绪变化等)各种重要生理和行为过程的中心。已经表明,这种节奏来自位于上核(SCN)中的神经元网络的自维持的生物分子振荡。在正常情况下,由于视网膜的信号,该网络仍然同步到昼夜周期。这些神经元振荡与外部光信号的未对准会破坏众多生理功能,并对健康和福祉造成持久的损失。在这项工作中,我们研究了现代的计算神经科学模型,以确定昼夜节律对不同频率和占空比外部光信号的限制。我们采用无基质方法来定位各种驾驶条件的高维模型的周期性稳态。我们的算法管道可以实现分叉图的数值延续和构建W.R.T.强制参数。我们在计算中探讨了昼夜节律网络中异质性的影响,以及矫正治疗性干预措施(例如药物分子长期的)的效果。最后,我们采用无监督的学习来构建数据驱动的嵌入空间来表示神经元异质性。
translated by 谷歌翻译
在从蛋白质折叠到材料发现的许多领域中,采样分子系统的相空间 - 更普遍地是通过随机微分方程有效建模的复杂系统的相位空间。这些问题本质上通常是多尺度的:可以用少数“慢速”反应坐标参数参数的低维有效自由能表面来描述它们;其余的“快速”自由度填充了反应坐标值的平衡度量。有关此类问题的抽样程序用于估计有效的自由能差以及相对于条件平衡分布的合奏平均值;后者平均值导致有效减少动态模型的关闭。多年来,已经开发了增强的采样技术与分子模拟。引人入胜的类比是与机器学习领域(ML)产生的,在该领域中,生成的对抗网络可以从低维概率分布中产生高维样品。该样本生成从有关其低维表示的信息中返回模型状态的合理高维空间实现。在这项工作中,我们提出了一种方法,该方法将基于物理学的模拟和偏置方法与基于ML的条件生成对抗网络对条件分布进行采样,以实现相同的任务。我们调节精细规模实现的“粗糙描述符”可以先验地知道,也可以通过非线性维度降低来学习。我们建议这可能会带来两种方法的最佳功能:我们证明,夫妻CGAN具有基于物理学的增强采样技术的框架可以改善多尺度SDE动力学系统采样,甚至显示出对增加复杂性系统的希望。
translated by 谷歌翻译
我们提供了一个方程/可变的免费机器学习(EVFML)框架,以控制通过基于微观/代理模拟器建模的复杂/多尺度系统的集体动力学。该方法避免了构建替代物,还原级模型的需求。〜所提出的实现包括三个步骤:(a)来自基于高维代理的模拟,机器学习(尤其是非线性歧管学习(扩散图)(扩散地图) (DMS))有助于确定一组粗粒变量,该变量参数化了出现/集体动力学的低维歧管。从高维输入空间到低维歧管和背部,通过将DMS与NyStrom扩展和几何谐波耦合来求解;(b)已确定了歧管及其坐标,我们将方程式的方法利用了方程的方法对出现动力学执行数值分叉分析;然后,基于先前的步骤(C),我们设计了数据驱动的嵌入式洗涤控制器,该控制器将基于代理的模拟器驱动其内在的IM精确知道的,新兴的开环不稳定稳态,因此表明该方案对数值近似误差和建模不确定性是可靠的。交通动态模型和(ii)与哑剧的随机金融市场代理模型的平衡。
translated by 谷歌翻译
我们提出了一种数据驱动的方法,用于学习振幅方程的替代模型,并说明了其在相位场系统的界面动力学上的应用。特别是,我们证明了学习有效的部分微分方程,描述了从全相位字段数据中的相位场界面的演变。我们在模型相位字段系统上进行了说明,其中分析近似方程(高阶Eikonal方程及其近似值Kardar-Parisi-Zhang(KPZ)方程)是已知的。对于此系统,我们讨论了数据驱动的方法,以识别准确描述前接口动力学的方程式。当上面提到的分析近似模型变得不准确时,随着我们超越基本假设的有效性区域,数据驱动的方程式优于它们。在这些制度中,超越了黑盒标识,我们探索了不同的方法来学习分析近似模型的数据驱动校正,从而导致有效的灰色盒子部分微分方程。
translated by 谷歌翻译
我们提出了一种数据驱动的方法来表征模型参数的非识别性,并通过动态和稳定的动力学模型来说明它。通过采用扩散图及其扩展,我们发现了表征化学系统输出行为所需的参数的最小组合:该模型的一组有效参数。此外,我们介绍和使用保形自动编码器神经网络技术以及基于内核的共同光滑函数技术,以解散不会影响输出行为的冗余参数组合。我们讨论了数据驱动的有效参数的解释性,并演示了该方法的实用性,以进行行为预测和参数估计。在后一个任务中,描述与特定输出行为一致的参数空间中的级别集变得重要。我们在多站点磷酸化模型上验证了我们的方法,该模型先前已经通过分析建立了一组有效参数集(物理组合的非线性组合)。
translated by 谷歌翻译
我们确定有效的随机微分方程(SDE),用于基于精细的粒子或基于试剂的模拟的粗糙观察结果;然后,这些SDE提供了精细规模动力学的有用的粗替代模型。我们通过神经网络近似这些有效的SDE中的漂移和扩散率函数,可以将其视为有效的随机分解。损失函数的灵感来自于已建立的随机数值集成剂的结构(在这里,欧拉 - 玛鲁山和米尔斯坦);因此,我们的近似值可以受益于这些基本数值方案的向后误差分析。当近似粗的模型(例如平均场方程)可用时,它们还自然而然地适合“物理信息”的灰色盒识别。 Langevin型方程和随机部分微分方程(SPDE)的现有数值集成方案也可以用于训练;我们在随机强迫振荡器和随机波方程式上证明了这一点。我们的方法不需要长时间的轨迹,可以在散落的快照数据上工作,并且旨在自然处理每个快照的不同时间步骤。我们考虑了预先知道粗糙的集体观察物以及必须以数据驱动方式找到它们的情况。
translated by 谷歌翻译
我们研究了科学计算的数值算法的元学习,它将一般算法结构的数学驱动,手工设计与特定的任务类的数据驱动的适应相结合。这表示从数值分析中的经典方法的偏离,这通常不具有这种基于学习的自适应。作为一个案例研究,我们开发了一种机器学习方法,基于Runge-Kutta(RK)Integrator架构,自动学习用于常用方程式(ODES)形式的初始值问题的有效求解器。通过组合神经网络近似和元学习,我们表明我们可以获得针对目标差分方程系的高阶集成商,而无需手头计算积分器系数。此外,我们证明,在某些情况下,我们可以获得古典RK方法的卓越性能。这可以归因于通过该方法识别和利用ode系列的某些属性。总的来说,这项工作展示了基于学习的基于学习的方法,用于设计差分方程的数值解的算法,一种方法可以容易地扩展到其他数值任务。
translated by 谷歌翻译
While the capabilities of autonomous systems have been steadily improving in recent years, these systems still struggle to rapidly explore previously unknown environments without the aid of GPS-assisted navigation. The DARPA Subterranean (SubT) Challenge aimed to fast track the development of autonomous exploration systems by evaluating their performance in real-world underground search-and-rescue scenarios. Subterranean environments present a plethora of challenges for robotic systems, such as limited communications, complex topology, visually-degraded sensing, and harsh terrain. The presented solution enables long-term autonomy with minimal human supervision by combining a powerful and independent single-agent autonomy stack, with higher level mission management operating over a flexible mesh network. The autonomy suite deployed on quadruped and wheeled robots was fully independent, freeing the human supervision to loosely supervise the mission and make high-impact strategic decisions. We also discuss lessons learned from fielding our system at the SubT Final Event, relating to vehicle versatility, system adaptability, and re-configurable communications.
translated by 谷歌翻译
Attention mechanisms form a core component of several successful deep learning architectures, and are based on one key idea: ''The output depends only on a small (but unknown) segment of the input.'' In several practical applications like image captioning and language translation, this is mostly true. In trained models with an attention mechanism, the outputs of an intermediate module that encodes the segment of input responsible for the output is often used as a way to peek into the `reasoning` of the network. We make such a notion more precise for a variant of the classification problem that we term selective dependence classification (SDC) when used with attention model architectures. Under such a setting, we demonstrate various error modes where an attention model can be accurate but fail to be interpretable, and show that such models do occur as a result of training. We illustrate various situations that can accentuate and mitigate this behaviour. Finally, we use our objective definition of interpretability for SDC tasks to evaluate a few attention model learning algorithms designed to encourage sparsity and demonstrate that these algorithms help improve interpretability.
translated by 谷歌翻译